承接昨天的神經元 (Neuron),神經元的輸出是線性輸出,若僅停留在這個階段,輸出仍然是線性函數,即便我們把很多神經元堆疊在一起,整體模型仍然等效於一個線性轉換,無法捕捉到真實世界中複雜的非線性關係為了解決這個問題,我們需要引入激活函數 (Activation Function) 可以讓模型學習到更複雜的模式 (非線性),所以激活函數必須是非線性的,這樣才能跟神經元做搭配。
$$
\sigma(x) = \frac{1}{1+e^{-x}}
$$
特點:
$$
\sigma(z_i) = \frac{e^{z_i}}{\sum_{j=1}^{K}e^{z_j}}
$$
特點:
$$
f(x) = max(0, x)
$$
特點:
$$
\text{tanh}(x) = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}}
$$
特點:
激活函數是深度學習中不可或缺的組件,選擇合適的激活函數對模型的性能有重要影響。現代深度學習中,ReLU 及其變體是最常用的選擇,但在特定場景下其他激活函數可能更適合。了解各種激活函數的特點和適用場景,有助於構建更好的神經網路模型。